Tarea 3: Frequentist Inference II

CC6104: Statistical Thinking

Integrantes :

Cuerpo Docente:

Fecha límite de entrega:

Índice:

  1. Objetivo
  2. Instrucciones
  3. Referencias
  4. Elaboración de Código

Objetivo

a la tercera tarea del curso Statistical Thinking. Esta tarea tiene como objetivo evaluar los contenidos teóricos de la segunda parte del curso, los cuales se enfocan principalmente en el diseño de experimentos, test de hipótesis y regresión lineal. Si aún no han visto las clases, se recomienda visitar los enlaces de las referencias.

La tarea consta de una parte teórica que busca evaluar conceptos vistos en clases. Seguido por una parte práctica con el fin de introducirlos a la programación en R enfocada en el análisis estadístico de datos.

Instrucciones:

Referencias:

Slides de las clases:

Enlaces a videos de las clases:


Elaboración de Código

En la siguiente sección deberá resolver cada uno de los experimentos computacionales a través de la programación en R. Para esto se le aconseja que cree funciones en R, ya que le facilitará la ejecución de gran parte de lo solicitado.

Para el desarrollo preste mucha atención en los enunciados, ya que se le solicitará la implementación de métodos sin uso de funciones predefinidas. Por otro lado, Las librerías permitidas para desarrollar de la tarea 3 son las siguientes:

# Manipulación de estructuras
library(tidyverse)
## ── Attaching core tidyverse packages ──────────────────────── tidyverse 2.0.0 ──
## ✔ dplyr     1.1.4     ✔ readr     2.1.5
## ✔ forcats   1.0.0     ✔ stringr   1.5.1
## ✔ ggplot2   3.5.1     ✔ tibble    3.2.1
## ✔ lubridate 1.9.3     ✔ tidyr     1.3.1
## ✔ purrr     1.0.2     
## ── Conflicts ────────────────────────────────────────── tidyverse_conflicts() ──
## ✖ dplyr::filter() masks stats::filter()
## ✖ dplyr::lag()    masks stats::lag()
## ℹ Use the conflicted package (<http://conflicted.r-lib.org/>) to force all conflicts to become errors
library(dplyr)
library(tidyr)

# Para realizar plots
library(scatterplot3d)
library(ggplot2)
library(plotly)
## 
## Adjuntando el paquete: 'plotly'
## 
## The following object is masked from 'package:ggplot2':
## 
##     last_plot
## 
## The following object is masked from 'package:stats':
## 
##     filter
## 
## The following object is masked from 'package:graphics':
## 
##     layout
# Manipulación de varios plots en una imagen.
library(gridExtra)
## 
## Adjuntando el paquete: 'gridExtra'
## 
## The following object is masked from 'package:dplyr':
## 
##     combine

Contextualización

En este apartado se verán conceptos que será necesario revisar para responder a las siguientes preguntas.

Z-test

En clases se han visto diferentes tipos de test de hipótesis para demostrar una proposición sobre algún parámetro. Uno de los test vistos en clases es el Z-Test, el cual su distribución del test estadístico bajo la hipótesis nula se puede aproximar a una Gaussina. Para la aplicación de este test, resaltan los siguientes puntos:

  • Cada uno de los puntos de la muestra deben ser independientes unos de otros.
  • Al utilizar una distribución normal en la hipótesis nula, este test debería utilizarse cuando se tiene un número considerable de observaciones, ya que la sampling distribution de la media tiende a una gaussiana, de lo contrario se debería usar un T-test.

Para calcular la significancia estadística al igual que con otros métodos esta se debe calcular como:

  • Menor/Cola-Izquierda (one-tailed): La Hipótesis Nula H0: \(\mu \geq \mu0\) vs Hipótesis Alternativa H1: \(\mu < \mu0\).
  • Superior/Cola-Derecha (one-tailed): La Hipótesis Nula H0: \(\mu \leq \mu0\) vs Hipótesis Alternativa H1: \(\mu > \mu0\).
  • Dos-Colas/Two-tailed: Hipótesis Nula H0: \(\mu = \mu0\) vs Hipótesis Alternativa H1: \(\mu \neq \mu0\).

Luego, dependiendo del objetivo del test tenemos las metodologías one-sample y two-sample. Utilizaremos One-Sample cuando nuestro objetivo es comparar la media de una muestra con la media de la población. El Z-score del One-Sample se define como:

\[Z-score_{One-Sample} = \dfrac{\bar x - \mu}{\dfrac{\sigma}{\sqrt n}}\] Donde \(\bar x\) es la media de la muestra, \(\mu\) es la media de la población, \(\sigma\) es la desviación estándar de la población y \(n\) es el tamaño de la muestra.

Por otro lado, se utiliza Two-Sample cuando queremos comparar la media de dos muestras. El Z-score de Two-Sample se define con la ecuación:

\[Z-score_{Two-Sample} = \dfrac{(\bar x_2 - \bar x_1) - (\mu_1 - \mu_2)}{\dfrac{\sigma_1}{\sqrt n_1}+\dfrac{\sigma_2}{\sqrt n_2}}\] Donde \((\bar x_2 - \bar x_1)\) es la diferencia de las medias de la muestra, \((\mu_1 - \mu_2)\) la diferencia de las medias de la población, \(\sigma_{1,2}\) la desviación estándar de la población y \(n_{1,2}\) el tamaño de las muestras.

Multiples Test

En la práctica aparece la necesidad de testear múltiples hipótesis (por ejemplo en biología se pueden utilizar múltiples grupos de control o querer estudiar múltiples resultados de un mismo experimento), de esta forma la primera idea es testear individualmente cada una de las hipótesis, el problema de este enfoque es que la probabilidad de que se obtenga al menos un resultado significante crece rápidamente (con un nivel de significancia \(\alpha = 0.05\) y \(20\) test ya se alcanza una probabilidad de \(64\%\) de tener resultados significantes por azar).

Una forma de corregir los inconvenientes del método anterior es utilizar el método de Bonferroni correction quien propone cambiar \(\alpha\) por \(\alpha/m\) (donde \(m\) es la cantidad de test de hipotesis realizados), esto resulta que las probabilidades de rechazar por error se mantengan bajas. De esta forma los p-valores obtenidos en un test de hipótesis y al utilizar Bonferroni correction, quedan dados por el producto de un \(p-valor_{i}\) y la cantidad de test realizados: \(\text{p-valor}_{i}*m\).

Pregunta 1: “I´ve Got The Power!”

El objetivo de esta pregunta es programar la potencia de un test de hipótesis y observar como se comportan las la hipótesis nula v/s la alternativa para un Z-test. Con el desarrollo de este ejercicio, podrán visualizar las diferentes partes que conforman a un test de hipótesis, identificar que es el p-valor y evidenciar como varia la potencia de un test one-sample y two-sample al variar \(\alpha\).

Para recordar; sabemos que en estadística el concepto de potencia viene dado por:

\[Power = 1 - \beta\]

Donde \(\beta\) es la probabilidad de obtener un error de tipo II. Con esto, la potencia estadística viene a representar la probabilidad de rechazar la hipótesis nula cuando esta es falsa. O sea, la potencia de una prueba es la probabilidad de encontrar un resultado positivo dado que este existe. Una de las formas de representar la potencia de un test es a través del siguiente gráfico:

study

Del gráfico, es posible visualizar que a medida que aumenta la diferencia en la media de la población, se obtienen mayores valores de potencia estadística.

Recordada que es la potencia de un test de hipótesis, a continuación, usted deberá programar una función que sea capaz de obtener la potencia de un Z-test one-sample y two-sample. Para esto por favor considere los siguientes puntos:

  • Crear una función que posea los siguientes argumentos:
    function(n1=NULL, sigma1=0.5, 
    n2=NULL,sigma2=0.5, mu.Ha=0 , 
    mu.True=0, alfa=0.05)

De los argumentos, tendremos que: \(n1\) representa la cantidad de datos para la muestra 1, \(sigma1\) es la desviación estándar de la muestra 1, \(n2\) la cantidad de datos para la muestra 2, \(sigma2\) la desviación estándar para la muestra 2, \(mu.Ha\) el mu del test de hipótesis y \(mu.True\) la media de la población real. Notar que la presencia de una segunda muestra solo es para el caso two-sample, para el caso one-sample el argumento de entrada \(n2\) debería ser nulo.

  • La función creada debe ser capaz de calcular el Z-test con el método One-sided (utilice solo la cola superior de la alternativa one-sided). Notar que la función al recibir un argumento nulo en \(n2\) debería asumir que se trata de un test one-sample automáticamente.
  • Al recibir un valor no nulo para \(n2\), \(mu.Ha\) representará la diferencia entre las medias de las muestras y \(mu.True\) la diferencia de las medias de la población de las muestras 1 y 2.
  • La salida de la función deberá retornar la potencia del test y un plot de las gaussianas que conforman el test de hipótesis. Para el caso del plot, observe los ejemplos de plot dispuestos más abajo.
  • Si utiliza el esqueleto propuesto, complete y comente que realiza cada una de las partes de la función one-sample entregada.

Codificada la función realice los siguientes experimentos:

  • Obtener el gráfico de potencia (visto al inicio de la pregunta) al variar la media poblacional para los siguientes argumentos de entrada:

\[ n1=16, sigma1=16, mu.Ha=100 , mu.True=Variar, alfa=0.05 \] \[ n1=16, sigma1=16, mu.Ha=100 , mu.True= Variar, alfa=0.01 \] \[ n1=16, sigma1=16, mu.Ha=100 , mu.True= Variar, alfa=0.1 \]

Se le recomienda que la variación se realice a través de un for y grafique las curvas dentro de un mismo gráfico para observar potenciales diferencias entre ellas.

  • Diseñe un experimento one-sample y visualice cómo se comportan las distribuciones normales de la hipótesis nula y la hipótesis alternativa al variar \(\alpha\).

  • Diseñe un experimento Two-sample y visualice cómo se comportan las distribuciones normales de la hipótesis nula y la hipótesis alternativa al variar \(\alpha\).

Para el diseño de experimentos y/o comprobación de sus métodos puede serles útiles (no hay problema si decide utilizar los mismos ejemplos):

A su vez, en estas fuentes se incluyen las visualizaciones esperadas de las distribuciones normales para cada experimento. Estos experimentos principalmente deben consistir en ver cómo cambia la potencia al cambiar alguno de los parámetros (por ejemplo \(\alpha\)), y se espera que se entregue un comentario acorde.

Respuesta

# Power Function, El esqueleto posee como ejemplo como obtener la potencia de un z-test one-sample.
# Si utiliza este esqueleto deberá comentar la función que cumple cada una de las partes entregadas
power.z.test <- function(n1=NULL, sigma1=0.5, 
                         n2=NULL,sigma2=0.5, mu.Ha=0 , 
                         mu.True=0, alfa=0.05){
  if(is.null(n2)){
    # Z crítico para cola derecha (one-sided)
    Z = qnorm(1-alfa)
    # Cálculo de la media muestral asociada al Z crítico
    denominador = sigma1/sqrt(n1)
    X_bar = Z*denominador + mu.Ha
    # Cálculo del Z bajo la hipótesis alternativa
    numerador = X_bar - mu.True
    Z = numerador/denominador
    Power = 1 - pnorm(Z)
    
    # Generación del gráfico con ggplot2
    min_lim = min(rnorm(1000, mean=mu.Ha, sd=denominador)) - 
      round(min(rnorm(1000, mean=mu.Ha, sd=denominador)))%%10
    max_lim = max(rnorm(1000, mean=mu.True, sd=denominador)) + 
      round(max(rnorm(1000, mean=mu.True, sd=denominador)))%%10
      
    plot <- ggplot(data.frame(x = c(min_lim, max_lim)), aes(x)) + 
      stat_function(fun = dnorm, args = list(mean = mu.Ha, sd = denominador), 
                    col='red') +
      stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador), 
                    col='blue') +
      stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominador), 
                    xlim = c(X_bar,max_lim), geom = "area", fill='red') + 
      geom_vline(xintercept = X_bar, linetype="dotted", linewidth=1) +
      annotate(x=X_bar, y=+Inf,label="alpha", vjust=2, geom="label") +
      theme_minimal() +
      ggtitle("H0 vs Ha") +
      xlab(expression(bar(X))) + ylab("Density")
  }else {
    # Condición para Two-Sample Z-test (n2 no es nulo)
    Z_crit = qnorm(1 - alfa)
    
    # Cálculo de la desviación estándar combinada
    denominator = sqrt((sigma1^2 / n1) + (sigma2^2 / n2))
    X_bar = Z_crit * denominator + mu.Ha
    
    # Cálculo del Z bajo la hipótesis alternativa
    numerator = X_bar - mu.True
    Z_alt = numerator / denominator
    Power = 1 - pnorm(Z_alt)
    
    # Generación del gráfico para Two-Sample Z-test
    min_lim = min(rnorm(1000, mean=mu.Ha, sd=denominator)) - 10
    max_lim = max(rnorm(1000, mean=mu.True, sd=denominator)) + 10
    
    plot <- ggplot(data.frame(x = c(min_lim, max_lim)), aes(x)) + 
      stat_function(fun = dnorm, args = list(mean = mu.Ha, sd = denominator), col='red') +
      stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominator), col='blue') +
      stat_function(fun = dnorm, args = list(mean = mu.True, sd = denominator), 
                    xlim = c(X_bar, max_lim), geom = "area", fill='red') + 
      geom_vline(xintercept = X_bar, linetype="dotted", linewidth=1) +
      annotate(x=X_bar, y=+Inf, label="alpha", vjust=2, geom="label") +
      theme_minimal() +
      ggtitle("H0 vs Ha - Two Sample") +
      xlab(expression(bar(X))) + ylab("Density")
  }
    # Retorna una lista con el gráfico y la potencia calculada
  return(list(plot=plot, power=Power))
}


# Plot de gráfico de potencia

# Experimentos
# Ejemplo 1: One-sample test, variando la media poblacional y alfa
mu_vals <- seq(90, 110, by=1)
powers <- sapply(mu_vals, function(mu.True) {
  result <- power.z.test(n1=16, sigma1=16, mu.Ha=100, mu.True=mu.True, alfa=0.05)
  return(result$power)
})

# Gráfico de la potencia vs mu.True
plot(mu_vals, powers, type='l', col='blue', main="Power vs mu.True (alfa = 0.05)", 
     xlab="Media de la Población", ylab="Potencia")

# Ejemplo 2: Two-sample test, variando la media poblacional y alfa
mu_vals <- seq(90, 110, by=1)
powers <- sapply(mu_vals, function(mu.True) {
  result <- power.z.test(n1=16, sigma1=16, n2=16, sigma2=16, mu.Ha=100, mu.True=mu.True, alfa=0.05)
  return(result$power)
})

# Gráfico de la potencia vs mu.True
plot(mu_vals, powers, type='l', col='red', main="Power vs mu.True (Two-Sample)", 
     xlab="Diferencia de Medias de la Población", ylab="Potencia")


Pregunta 2: Z-test

Esta pregunta tiene como objetivo comprender como funciona un test de hipótesis y como deberíamos abordar la realización de múltiples test de hipótesis con datos reales.

La pregunta deberá ser desarrollada utilizando el dataset marketing_campaign.csv. Con esto, deberá programar un Z-test, con el cual estudiará a través de experimentos el Income de personas con los grados académicos Graduation, Master y PhD. Para realizar esto considere la elaboración de los siguientes puntos de forma secuencial:

  • Modificar el dataframe entregado generando un estructura apta para el test de hipótesis. Una estructura que se les aconseja utilizar son vectores con los valores que representan a los grados académicos Graduation, Master y PhD por separado.
Ejemplo de estructura

Por ejemplo para el caso de Graduation pueden generar estructuras de la siguiente forma:

ID Graduation
5524 58138
2174 46344
4141 71613
6182 26646
965 55635

Donde los valores en la fila de Graduation representan los sueldos de las diferentes personas que conforman el dataset. Un punto importante a considerar es que los datos para los diferentes grados académicos poseen diferentes numero de datos (no se asusten por esto).

  • Programar el método Z-test con la metodología one sample y two sample, obteniendo los p-valores a través de las alternativas one-sided y two-sided. Para el caso de one-sided, cree una función capaz de obtener la cola menor y mayor de la gaussiana.

  • El calculo de las diferentes alternativas para calcular los p-valores deberá ser un argumento de su función, donde señalando ‘menor’,‘mayor’ (para los casos one-sided) y ‘two-sided’ deberá obtener el valor pertinente para cada caso.

  • Genere una función que permita realizar solo múltiples test del tipo two-sample y aplique bonferroni correction a los p-valores obtenidos. Notar que los múltiples test deberá realizar la comparación entre todos los elementos de entrada, por ejemplo si deseamos comparar los ingresos de Graduation, Master y PhD, se deberían comparar los ingresos de Graduation v/s Master, Graduation v/s PhD y Master y PhD

Codificada las funciones, realice los siguientes experimentos con su función de test de hipótesis:

  • Compruebe si la media de los ingresos para la variable Graduation es similar a 52000. Señale formalmente este experimento y obtenga los p-valores para las alternativas one-sided y two-sided.

  • Compruebe si la diferencia entre los ingresos de las personas con el grado académico Graduation es cercana a cero en relación a la recibida por los Master y PhD. Para este punto utilice la función que le permite realizar múltiples test del tipo two-sample.

Para estos experimentos usted deberá escoger un \(\alpha\), y con éste comentar respecto a los p-valores obtenidos.

Para los diferentes experimentos considere que la desviación estandar de la población para los diferentes income son los siguientes:

\[\sigma_{Graduation} = 28180\] \[\sigma_{Master} = 20160\] \[\sigma_{PhD} = 20615\]

Respuesta:

df = read.csv('marketing_campaign.csv', sep='\t')
head(df)
# Filtrar ingresos por grado académico
income_graduation <- df$Income[df$Education == 'Graduation']
income_master <- df$Income[df$Education == 'Master']
income_phd <- df$Income[df$Education == 'PhD']
# Remover los valores NA de cada vector
income_graduation <- income_graduation[!is.na(income_graduation)]
income_master <- income_master[!is.na(income_master)]
income_phd <- income_phd[!is.na(income_phd)]

# Implementación de Z-test
z_test <- function(data1, sigma1, mu.Ha=0, data2=NULL, sigma2=NULL, test.type='two-sided') {
  n1 <- length(data1)
  mean1 <- mean(data1)
  
  if (is.null(data2)) { # One-sample Z-test
    z <- (mean1 - mu.Ha) / (sigma1 / sqrt(n1))
    if (test.type == 'menor') p <- pnorm(z)
    else if (test.type == 'mayor') p <- 1 - pnorm(z)
    else p <- 2 * (1 - pnorm(abs(z)))
    
  } else { # Two-sample Z-test
    n2 <- length(data2)
    mean2 <- mean(data2)
    z <- (mean2 - mean1 - mu.Ha) / sqrt((sigma1^2 / n1) + (sigma2^2 / n2))
    if (test.type == 'menor') p <- pnorm(z)
    else if (test.type == 'mayor') p <- 1 - pnorm(z)
    else p <- 2 * (1 - pnorm(abs(z)))
  }
  
  return(list(z_score=z, p_value=p))
}
z_test_multiple <- function(data_list, sigma_list, alpha=0.05) {
  results <- list()
  m <- length(data_list) * (length(data_list) - 1) / 2  # Número de tests
  index <- 1
  for (i in 1:(length(data_list) - 1)) {
    for (j in (i + 1):length(data_list)) {
      test_result <- z_test(data_list[[i]], sigma_list[i], data2=data_list[[j]], sigma2=sigma_list[j])
      test_result$p_value <- min(test_result$p_value * m, 1) # Corrección de Bonferroni
      results[[index]] <- list(data1=i, data2=j, z_score=test_result$z_score, p_value=test_result$p_value)
      index <- index + 1
    }
  }
  return(results)
}
# Definir parámetros conocidos
mu_Graduation <- 52000
sigma_Graduation <- 28180

# Realizar el test one-sided (menor y mayor) y two-sided
result_one_sided_menor <- z_test(data1=income_graduation, sigma1=sigma_Graduation, mu.Ha=mu_Graduation, test.type='menor')
result_one_sided_mayor <- z_test(data1=income_graduation, sigma1=sigma_Graduation, mu.Ha=mu_Graduation, test.type='mayor')
result_two_sided <- z_test(data1=income_graduation, sigma1=sigma_Graduation, mu.Ha=mu_Graduation, test.type='two-sided')

# Mostrar resultados
cat("One-sided test (menor): Z-score =", result_one_sided_menor$z_score, ", p-value =", result_one_sided_menor$p_value, "\n")
## One-sided test (menor): Z-score = 0.8539824 , p-value = 0.8034426
cat("One-sided test (mayor): Z-score =", result_one_sided_mayor$z_score, ", p-value =", result_one_sided_mayor$p_value, "\n")
## One-sided test (mayor): Z-score = 0.8539824 , p-value = 0.1965574
cat("Two-sided test: Z-score =", result_two_sided$z_score, ", p-value =", result_two_sided$p_value, "\n")
## Two-sided test: Z-score = 0.8539824 , p-value = 0.3931147

Dado el nivel de significancia \((\alpha = 0.05)\), los valores p de las pruebas son mayores a \(\alpha\) en todos los casos. Esto indica que no hay suficiente evidencia para rechazar la hipótesis nula, por lo que podemos concluir que la media de ingresos para el grupo “Graduation” es similar a 52,000.

# Desviaciones estándar de cada grupo
sigma_Graduation <- 28180
sigma_Master <- 20160
sigma_PhD <- 20615

# Realizar múltiples tests usando la función con corrección de Bonferroni
result_multiple_tests <- z_test_multiple(
  data_list = list(income_graduation, income_master, income_phd),
  sigma_list = c(sigma_Graduation, sigma_Master, sigma_PhD),
  alpha = 0.05
)

# Mostrar resultados
for (res in result_multiple_tests) {
  cat("Comparación entre grupo", res$data1, "y grupo", res$data2, ": Z-score =", res$z_score, ", p-value ajustado =", res$p_value, "\n")
}
## Comparación entre grupo 1 y grupo 2 : Z-score = 0.1459422 , p-value ajustado = 1 
## Comparación entre grupo 1 y grupo 3 : Z-score = 2.711808 , p-value ajustado = 0.02007521 
## Comparación entre grupo 2 y grupo 3 : Z-score = 2.284084 , p-value ajustado = 0.06709977
  • Comparación entre Graduation y Master: \(p\text{-value ajustado} = 1.00\) (sin evidencia significativa de diferencia)

  • Comparación entre Graduation y PhD: \(p\text{-value ajustado} = 0.0201\) (evidencia significativa de diferencia)

  • Comparación entre Master y PhD: \(p\text{-value ajustado} = 0.0671\) (sin evidencia significativa de diferencia al nivel \(\alpha = 0.05\) Usando un \(\alpha = 0.05\) ajustado para las comparaciones múltiples, la única comparación significativa es entre Graduation y PhD. Esto sugiere una diferencia estadísticamente significativa en los ingresos entre personas con estos dos niveles académicos. Las otras comparaciones no muestran diferencias significativas en ingresos, ya que los \(p\text{-values ajustados}\) son mayores que \(\alpha\).

Pregunta 3: Testeando multiples hipotesis y Bonferroni Correction

El objetivo de este problema es estudiar como realizar múltiples test de hipótesis simultáneamente. Para esto en primer lugar se estudiara el método “intuitivo”, donde veremos sus limitantes y se comparará con el método llamado Bonferroni correction, posteriormente se r ealizará un estudio practico con el dataset ratones.csv.

Un investigador se ha colocado en contacto con ustedes señalándoles que realiza diariamente test de hipótesis entre las muestras que toma día a día en su laboratorio. Con esto, al investigador le urge saber si realizar multiples test de hipótesis sin una corrección podría afectar la toma de decisiones. Para comprobar esto, les solicita comprobar matemáticamente como se comporta la probabilidad de obtener al menos un resultado significativos al azar de sus experimentos diarios. Para esto, les señala que la la probabilidad de obtener un experimento por azar puede ser simulado a través de los casos exitosos de una binomial (valores mayores a cero), donde el numero de observaciones son la cantidad de experimentos (\(m\)) y la probabilidad queda dada por \(\alpha\) del test.

A continuación, se entregan unas indicaciones mas especificas para desarrollar la pregunta:

data <- read.csv("ratones.csv",sep= ";", stringsAsFactors = T)
head(data)

Respuesta Aquí:

### Función probEmpirica sin utilizar el método de Bonferroni correction ###
probEmpirica <- function(alpha,m){
  n <- 10000 # Cantidad de veces que se va a repetir el experimento para estimar la probabilidad, pueden cambiar este valor si lo desean
  
  res <- rbinom(n, m, alpha) #Resultados de los experimentos
  
  prob <- mean(res > 0) # Probabilidad empirica
  
  return(prob)
  
}


#Se comprueba que con un nivel de significancia $\alpha = 0.05$ y $20$ test ya se alcanza una probabilidad de $64\%$ de tener resultados significantes por azar
alpha <- 0.05
m <- 20
prob <- probEmpirica(alpha, m)
print(prob)
## [1] 0.6331
#Se calcula teóricamente 

prob_teo <- 1 - (1 - alpha)^m
prob_teo
## [1] 0.6415141

Graficando la la probabilidad empírica y real variando el valor de \(m\)

# Parámetros
alpha <- 0.05
m_values <- 10:100 # Valores de m a evaluar

# Inicializamos vectores para almacenar resultados
prob_empirica <- numeric(length(m_values))
prob_teorica <- numeric(length(m_values))

# Calculamos probabilidades empíricas y teóricas para cada valor de m
for (i in seq_along(m_values)) {
  m <- m_values[i]
  prob_empirica[i] <- probEmpirica(alpha, m)
  prob_teorica[i] <- 1 - (1 - alpha)^m
}

# Graficamos resultados
plot(m_values, prob_teorica, type = "l", col = "blue", lwd = 2,
     ylab = "Probabilidad de obtener al menos un resultado significativo",
     xlab = "Cantidad de experimentos (m)", ylim = c(0, 1))
lines(m_values, prob_empirica, col = "red", lwd = 2)
legend("bottomright", legend = c("Probabilidad Teórica", "Probabilidad Empírica"),
       col = c("blue", "red"), lwd = 2)

Ambos resultados son bastante parecidos, cuando la cantidad de experimentos es muy grande ambas probabilidades tienden a acercarse al 100%. Al cambiar el valor de m se espera un cambió en la “velocidad” en que la curva se acerca al 1, notando que para valores menores de alpha se acercará más lentamente al contrio de si es para valores mayores. Al ser los valores bastante parecidos se puede asumir que este método es bastante eficaz en obtener valores significativos solo por azar.

Corrigiendo la Probabilidad Empírica con el método de Bonferroni correction:

### Función probEmpirica utilizando el método de Bonferroni correction ###
probEmpiricaBonferroni <- function(alpha,m){
  n <- 10000 # Cantidad de veces que se va a repetir el experimento para estimar la probabilidad, pueden cambiar este valor si lo desean
  
  res <- rbinom(n, m, alpha/m) #Resultados de los experimentos
  
  prob <- mean(res > 0)*m # Probabilidad empirica
  
  return(prob)
  
}


# Parámetros
alpha <- 0.05
m_values <- 1:100 # Valores de m a evaluar

# Inicializamos vectores para almacenar resultados
prob_empirica <- numeric(length(m_values))
prob_teorica <- numeric(length(m_values))

# Calculamos probabilidades empíricas y teóricas para cada valor de m
for (i in seq_along(m_values)) {
  m <- m_values[i]
  prob_empirica[i] <- probEmpiricaBonferroni(alpha, m)
  prob_teorica[i] <- 1 - (1 - alpha)^m
}

# Graficamos resultados
plot(m_values, prob_teorica, type = "l", col = "blue", lwd = 2,
     ylab = "Probabilidad de obtener al menos un resultado significativo",
     xlab = "Cantidad de experimentos (m)", ylim = c(0, 1))
lines(m_values, prob_empirica, col = "red", lwd = 2)
legend("bottomright", legend = c("Probabilidad Teórica", "Probabilidad Empírica"),
       col = c("blue", "red"), lwd = 2)

Las probabilidades aumentan significativamente dando como resultado que las probabilidades de rechazar por error se mantengan bajas, si el m es muy alto significaría que las hipotesis nunca serían rechazadas habiendo una inconsistencia en el propósito de realizar estos múltiples test llevando a falsos negativos.

Con respecto a lo observado en ratones.csv, es posible apreciar que originalmente sin Bonferroni se hubiera aceptado al grupo NK602-13%, sin embargo con Bonferroni este se hubiera rechazado al igual que el resto de los grupos. Esto implica que se ha rechazado al único resultado significativo que se había encontrado originalmente, aumentando así el caso de los falsos negativos.


Pregunta 4: Regression Lineal sin comandos.

El objetivo de la siguiente pregunta es aplicar los conceptos de regresión lineal vistos en clases para implementar desde cero un función capaz de realizar una regresión simple y múltiple.

Para este problema, ustedes deberán estudiar el comportamiento de los clientes de un holding de salud. Para esto, se les hace entrega del dataset insurance.csv para que estudien la creación de un modelo lineal con sus datos. Antes de comenzar a trabajar, se señalan las diferentes variables que componen al dataset:

  • age: Señala la edad de cada uno de los sujetos.
  • sex: Si es mujer es igual a 1, si es hombre es igual a 0.
  • bmi: Indice de masa corporal del cliente.
  • children: Señala cuantos hijos tiene cada uno de los sujetos.
  • smoker: Variable binaria que cuando es 1 señala que el cliente es fumador (0 en caso contrario).
  • charges: Gastos médicos de cada uno de los clientes.

Es importante que considere que cada una de las filas representa un cliente distinto para el holding.

Dentro del estudio, el holding de salud le solicita estudiar los comportamientos de los clientes fumadores y no fumadores, por lo que se le aconseja separar el dataframe original en fumadores y no fumadores. En el estudio, realicen un modelo lineal que tiene como variable de respuesta a charges y los datos que mejor se correlacionan para los clientes fumadores y no fumadores. Para esto, deberán realizar las siguientes actividades:

Parte I

  1. Programe un modelo lineal simple escogiendo la variable numérica que tiene mayor relación con la variable de respuesta. Recuerde justificar la elección de la variable numérica cuantitativamente.
  2. Señale tanto el \(R^2\) como el \(R^2-adjustado\) del modelo.
  3. Grafique el scatterplot de los datos y la linea que ajusta a la regresión lineal obtenida.

Parte II

  1. Entrene un modelo lineal multivariable escogiendo dos variables numéricas que posean la mayor relación con charges.
  2. Estudie si el modelo multivariable posee mejor desempeño que el modelo simple y comente los resultados. ¿Es recomendable la utilización de los dos modelos creados para la predicción de nuevas entradas?. Para este análisis puede utilizar los valores de test de hipótesis entregados por el comando lm(), ya que esto le servirá para observar si la regresión lineal es significativa.

Nota: No esta permitido utilizar comandos que obtengan los valores solicitados directamente a menos que se le permita en la pregunta.

PARTE I

# Ajustes al dataset
dataset <- read.csv("insurance.csv", header = TRUE) 
dataset$sex <- ifelse(dataset$sex == "female", 1, 0)
dataset$smoker <- ifelse(dataset$smoker == "yes", 1, 0)
dataset$region <- NULL

data_fumadores <- dataset[dataset$smoker == "1",]
data_notfumadores <- dataset[dataset$smoker == "0",]

data_fumadores$smoker <- NULL 
data_notfumadores$smoker <- NULL 

cor(data_fumadores)
##                  age          sex         bmi    children     charges
## age      1.000000000  0.005758137  0.05967388  0.08118329  0.36822444
## sex      0.005758137  1.000000000 -0.14834993 -0.07690698 -0.10122606
## bmi      0.059673882 -0.148349931  1.00000000 -0.01261916  0.80648061
## children 0.081183289 -0.076906981 -0.01261916  1.00000000  0.03594501
## charges  0.368224444 -0.101226064  0.80648061  0.03594501  1.00000000
cor(data_notfumadores)
##                 age          sex         bmi     children    charges
## age      1.00000000  0.022338060  0.12263798  0.033395332 0.62794678
## sex      0.02233806  1.000000000 -0.01911866 -0.002090212 0.05632016
## bmi      0.12263798 -0.019118656  1.00000000  0.019208413 0.08403654
## children 0.03339533 -0.002090212  0.01920841  1.000000000 0.13892870
## charges  0.62794678  0.056320161  0.08403654  0.138928705 1.00000000

La variable escogida para los fumadores es bmi y para los no-fumadores es age , esto ya que respectivamente son las variables con correlaciones positivas más altas respecto a charges.

A continuación se programará el modelo lineal simple para los fumadores y no fumadores:

# Calculando beta 0 y beta 1 para fumadores y no fumadores

# Función para calcular los betas
calcular_betas<- function(x, y) {
  beta_1 <- sum((x - mean(x)) * (y - mean(y))) / sum((x - mean(x))^2)
  beta_0 <- mean(y) - beta_1 * mean(x)
  list(beta0 = beta_0, beta1 = beta_1)
}

# Para fumadores
beta0_fumadores = calcular_betas(data_fumadores$bmi, data_fumadores$charges)$beta0
beta1_fumadores = calcular_betas(data_fumadores$bmi, data_fumadores$charges)$beta1

# Para no fumadores
beta0_nofumadores = calcular_betas(data_notfumadores$age, data_notfumadores$charges)$beta0
beta1_nofumadores = calcular_betas(data_notfumadores$age, data_notfumadores$charges)$beta1

# Modelos lineales resultantes

# Para fumadores
charges_fumadores <- beta0_fumadores + beta1_fumadores * data_fumadores$bmi

#Para no fumadores
charges_nofumadores <- beta0_nofumadores + beta1_nofumadores * data_notfumadores$age


#Calculo de R2 y R2 ajustado

# Para fumadores
# R2
SST_fumadores <- sum((data_fumadores$charges - mean(data_fumadores$charges))^2)
SSE_fumadores <- sum((data_fumadores$charges - charges_fumadores)^2)
R2_fumadores <- 1 - (SSE_fumadores / SST_fumadores)
R2_fumadores
## [1] 0.650411
# R2 ajustado
n_fumadores <- length(data_fumadores$charges)
m <- 1  
R2_ajustado_fumadores <- 1 - ((1 - R2_fumadores) * (n_fumadores - 1) / (n_fumadores - m - 1))
R2_ajustado_fumadores
## [1] 0.6491257
# Para no fumadores
# R2
SST_nofumadores <- sum((data_notfumadores$charges - mean(data_notfumadores$charges))^2)
SSE_nofumadores <- sum((data_notfumadores$charges - charges_nofumadores)^2)
R2_nofumadores <- 1 - (SSE_nofumadores / SST_nofumadores)
R2_nofumadores
## [1] 0.3943172
# R2 ajustado
n_nofumadores <- length(data_notfumadores$charges)
m <- 1  
R2_ajustado_nofumadores <- 1 - ((1 - R2_nofumadores) * (n_nofumadores - 1) / (n_nofumadores - m - 1))
R2_ajustado_nofumadores
## [1] 0.3937468
# GRáfico para fumadores
plot(data_fumadores$bmi, data_fumadores$charges, main = "Modelo Lineal Simple para Fumadores",
     xlab = "bmi", ylab = "Charges", pch = 19)
abline(a = beta0_fumadores, b = beta1_fumadores, col = "blue", lwd = 2)

# GRáfico para no fumadores
plot(data_notfumadores$age, data_notfumadores$charges, main = "Modelo Lineal Simple para No Fumadores",
     xlab = "age", ylab = "Charges", pch = 19)
abline(a = beta0_nofumadores, b = beta1_nofumadores, col = "blue", lwd = 2)

PARTE II

Las variables escogidas para los fumadores son bmi y age , para los no-fumadores son age y children, esto ya que respectivamente son las variables con correlaciones positivas más altas respecto a charges.

# Para fumadores
# Preparar la matriz X y el vector y 
X_fumadores <- as.matrix(cbind(1, data_fumadores$bmi, data_fumadores$age)) 
Y_fumadores <- data_fumadores$charges

# Calcular los coeficientes de beta usando (X'X)^(-1)X'y
beta_fumadores <- solve(t(X_fumadores) %*% X_fumadores) %*% t(X_fumadores) %*% Y_fumadores
beta_fumadores #Valores de la intersección y coeficientes de las variables independientes
##             [,1]
## [1,] -22367.4497
## [2,]   1438.0910
## [3,]    266.2922
# Para no fumadores
# Preparar la matriz X y el vector y 
X_nofumadores <- as.matrix(cbind(1, data_notfumadores$bmi, data_notfumadores$children)) 
Y_nofumadores <- data_notfumadores$charges

# Calcular los coeficientes de beta usando (X'X)^(-1)X'y
beta_nofumadores <- solve(t(X_nofumadores) %*% X_nofumadores) %*% t(X_nofumadores) %*% Y_nofumadores
beta_nofumadores #Valores de la intersección y coeficientes de las variables independientes
##            [,1]
## [1,] 5222.75837
## [2,]   80.73353
## [3,]  675.89897
reg2 <- lm(charges~bmi+age, data_fumadores)
summary(reg2)
## 
## Call:
## lm(formula = charges ~ bmi + age, data = data_fumadores)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -14604.4  -4315.1   -240.5   3638.0  29316.7 
## 
## Coefficients:
##              Estimate Std. Error t value Pr(>|t|)    
## (Intercept) -22367.45    1931.86  -11.58   <2e-16 ***
## bmi           1438.09      55.22   26.05   <2e-16 ***
## age            266.29      25.06   10.63   <2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 5754 on 271 degrees of freedom
## Multiple R-squared:  0.7532, Adjusted R-squared:  0.7514 
## F-statistic: 413.6 on 2 and 271 DF,  p-value: < 2.2e-16
reg3 <- lm(charges~bmi+children, data_notfumadores)
summary(reg3)
## 
## Call:
## lm(formula = charges ~ bmi + children, data = data_notfumadores)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
##  -8349  -4552  -1318   2987  27527 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  5222.76     949.99   5.498 4.82e-08 ***
## bmi            80.73      30.06   2.686  0.00735 ** 
## children      675.90     149.12   4.533 6.48e-06 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 5921 on 1061 degrees of freedom
## Multiple R-squared:  0.02592,    Adjusted R-squared:  0.02409 
## F-statistic: 14.12 on 2 and 1061 DF,  p-value: 8.88e-07

Para realizar el análisis de qué modelos son mejores para la predicción de nuevas entradas se comparán los valores del $R^2-ajustado$ el cual nos indica la “penalización” que habrá al predecir nuevas entradas.

En el caso del Modelo de la Parte I se puede ver que su valor de $R^2-ajustado$ de apróximadamente 0.6491 para el caso de los fumadores es menor que para el Modelo de la Parte II con valor ~0.7514, por lo que para los fumadores se puede decir que el modelo lineal multivariable posee un mejor desempeño que el simple. En cambio, para el caso de los no fumadores ocurre lo contrario, presentado un valor de $R^2-ajustado$ ~0.3937 para el modelo lineal siemple siendo mayor que el valor ~0.02409 del modelo lineal multivariable, por lo que en este caso es mucho más recomendable utilizar el modelo lineal simple para la predicción de nuevas entradas.

}

 


A work by CC6104